首页  资讯  商机   下载  拆解   高校  招聘   杂志  会展  EETV  百科   问答  电路图  工程师手册   Datasheet  100例   活动中心  E周刊阅读   样片申请
EEPW首页 >> 主题列表 >> gpu ip

gpu ip 文章 最新资讯

AI 数据中心加速迭代,催生全新电子硬件回收经济

  • 尽管铜并非数据中心内回收量最大的材料,但随着数据中心持续扩建与架构重构,废旧铜材正催生出一条全新的产业链。图片来源:snezhkina/Adobe Stock人工智能数据中心的高速扩张,正为废旧硬件、老旧配件及原材料回收打造出一个全新二级市场。在这一新兴回收经济中,退役 GPU、CPU、内存以及铜材等物料被重新利用,在其他设备中开启 “第二生命周期”,或至少被回收处理以备后续使用。AI 数据中心对 GPU 和 CPU 的更新换代速度,远快于传统 IT 硬件周期。部分硬件在使用三至四年后便会被替换,而在某些
  • 关键字: 数据中心  CPU  GPU  

UALink 2.0发布:GPU网络标准新进展

  • UALink联盟近日发布了2.0版本通用规范,该版本新增了“网络内运算”功能,旨在实现加速器之间的运算和通信能力。相比1.0版本,2.0在降低延迟和提高带宽使用效率方面有了显著改进,同时增强了AI工作负载分布式训练和推理的扩展性能。 据综合Network World、The Register、SDX Central等报道,UALink联盟成立于2024年中期,由AMD、思科(Cisco)和慧与科技(HPE)等科技巨头支持,目标是创建一个开放、低延迟、高带宽的互连技术,以提供不同于NVIDIA N
  • 关键字: UALink  2.0  GPU  网络标准  

筑基AI4S:摩尔线程全功能GPU加速中国生命科学自主生态

  • 精准医疗与药物研发正被人工智能深刻重塑。作为AI for Science(AI4S)领域的核心阵地,解码生命奥秘的关键已从实验观测转向算力与算法的协同突破。蛋白质结构预测、基因组分析与医学影像,构成了生命科学AI的三类关键技术,其能力直接决定了新药研发的效率与精准医疗的进程。然而,作为这三类关键技术之一的蛋白质结构预测模型AlphaFold 3,其训练代码未完全开放,商业使用亦受限,这使得科学家难以基于该模型构建真正自主可控的研发环境。这种技术依赖还面临更深层的合规挑战:蛋白质结构预测与基因组分析涉及大量
  • 关键字: AI4S  摩尔线程  GPU  

突破工艺边界,奎芯科技LPDDR5X IP硅验证通过,速率达9600Mbps

  • 近日,奎芯科技自主研发的LPDDR5X PHY IP在8nm工艺上顺利完成流片验证。实测不仅稳定达到9600Mbps速率,更超频跑通10.8Gbps,展现出在先进工艺节点上挑战极致带宽的非凡能力,为高性能计算、AI边缘计算等场景提供了高性价比的内存接口方案。满血性能:从标准到巅峰的跨越2-rank DRAM测试子板挂载方案本次流片验证采用了挂载2-rank DRAM测试子板的方案,全面覆盖了从低速到极速的工作场景。满血达标:该IP在1000Mbps至9600Mbps的速率范围内实现了DLL的精准锁定。极致
  • 关键字: 奎芯科技  LPDDR5X  IP  硅验证  9600Mbps  

CPU正面临严重短缺

  • 最开始紧缺的是GPU,随后是内存,而如今紧缺的矛头转向了CPU。据半导体行业分析机构Semianalysis Dylan Patel指出,GPU已不再是云厂商的瓶颈,这一角色现已转移至CPU。受Agentic AI爆发式增长影响此前,用于AI的GPU仅执行简单推理任务,随着新模型推出,任务形态发生根本性变化 —— Agentic AI如今被大量用于数据库调用,以及物理仿真、模拟运算等高度依赖CPU的任务。这些频繁的数据库访问与CPU密集型运算,导致云数据中心CPU使用率急剧飙升。这种爆发式需求已导致Git
  • 关键字: CPU  GPU  AI  英伟达  AMD  英特尔  Arm  

芯片比豪车保值? 专家揭硅谷暴利内幕「价格涨疯了」

  • 在AI热潮推动下,算力需求持续喷发,导致芯片资产出现罕见现象:GPU(图形处理器)的保值能力甚至超过汽车。 以英伟达H100为例,使用3年后仍可维持原价84%,折旧速度远低于一般耐用品,颠覆市场对科技硬件「快速贬值」的既有认知。据财经媒体《商业内幕》(Business Insider)报道,这样的价格表现并非个案,而是整体市场供需失衡的结果。 根据Silicon Data的数据,英伟达不论新款或旧款GPU,近几个月价格全面上升,显示AI算力需求仍持续超过供给。GPU价格颠覆常态 旧款芯片不跌反升过去芯片市
  • 关键字: 芯片  硅谷  GPU  

企业用户的GPU虚拟化必要性,丝毫不亚于曾经的CPU虚拟化

  • Nutanix 首席执行官拉吉夫・拉马斯瓦米表示,人工智能技术的应用已开始为公司贡献利润。不过,自主智能体 AI 真正开始显著影响客户的盈利状况,还需要一段时间。该厂商在上月的 GTC 大会上公布了自主智能体 AI 平台战略,并于本周推出了更多相关功能,其中包括一套多租户框架,旨在帮助企业与新型云服务商从 GPU 中榨取更多价值。但目前仍处于早期阶段,可以合理认为,真正规模化使用 Nutanix 全新 AI 技术的客户数量大概率仅有数十家,而非数千家。与此同时,公司在聚焦即将到来的自主智能体 AI 时代的
  • 关键字: GPU  虚拟化  CPU  虚拟化  

SiFive获新一轮融资,全力进军数据中心CPU IP市场

  • SiFive 完成超额认购的 G 轮融资,募资 4 亿美元,由 Atreides Management 领投,英伟达参投,正式加速进军数据中心 CPU IP 领域。本轮融资后,这家总部位于圣克拉拉的公司估值达36.5 亿美元。据路透社报道,CEO 帕特里克・利特尔表示,本轮融资有望成为其 IPO 前最后一轮私募融资。融资用途与数据中心战略SiFive 表示,新资金将用于三大方向:加速下一代高性能数据中心架构研发扩大工程团队深化其 CPU 平台的软件栈建设具体投入领域包括:高性能标量、向量、矩阵 RISC-
  • 关键字: SiFive  数据中心  CPU  IP  

AI 推动光互连技术应用,实现 GPU 可扩展通信

  • AI 通常被定义为算力故事:更大的模型、更快的 GPU、布满加速器的数据中心。但随着系统持续扩容,真正的限制并非算力,而是数百、数千乃至数百万处理器间的通信。图一:人工智能数据中心规模扩展集群规模的演变。现代 AI 的核心是矩阵乘法,大型神经网络可将运算分配至多个处理单元,并行计算成为提升性能的首选方案。但模型规模超过约 100 亿参数后,小型本地计算域无法支撑扩容,工作负载需分配至多个图形处理器(GPU),覆盖板卡、服务器、机架,乃至跨建筑区域级光纤网络。实际应用中,GPU 需协同如同一台超大处理器,需
  • 关键字: 人工智能  GPU  

英特尔在MLPerf v6.0中强调可扩展的AI推断

  • 英特尔发布了最新基准测试成绩,展现了其在 CPU 与 GPU 平台上的最新人工智能推理能力。该结果作为 MLCommons 组织MLPerf Inference v6.0测试套件的一部分正式公布,凸显了英特尔至强 6 处理器搭配英特尔锐炫 Pro B 系列 GPU,在工作站、数据中心与边缘端部署场景下的性能表现。对于关注 AI 硬件平台演进的工程师与开发者而言,这些结果清晰展现了英特尔在当前由专有 GPU 生态主导的市场中,如何布局开放、可扩展的推理系统。基准测试凸显锐炫 Pro GPU 扩展能力MLPe
  • 关键字: 人工智能  英特尔  GPU  

智能体AI(Agentic AI)不止需要GPU

  • 核心要点智能体 AI 工作负载正在重塑数据中心算力需求,性能瓶颈从以 GPU 为中心的推理转向CPU 密集的调度与工作流管理。传统 AI 推理是单步前向传播,而智能体 AI 是分布式、多步骤、带规划 / 工具调用 / 验证 / 迭代推理的复杂流程,对 CPU 需求激增。实测显示:在金融异常检测、AI 代码生成等场景中,CPU 耗时超过 GPU 推理,仅靠提升 GPU 性能无法优化整体吞吐。数据中心需保持CPU 与 GPU 均衡配比,推荐比例为 1:1 到 1.4:1,即每颗 GPU 配 86–120 个
  • 关键字: 智能体AI  Agentic AI  GPU  

当平台提供商变成竞争对手:Arm 的芯片战略如何重构行业利益格局

  • 我供职于一家 RISC‑V IP 公司晶心科技(Andes),但我真心为 Arm 加油 —— 可能比我这个职位的大多数人愿意承认的还要多。不是因为我搞不清谁和谁竞争,而是因为对 Arm 股东最有利的一步,恰恰也是迄今为止给 RISC‑V 带来最大东风的一步。这本质上不是一个 “Arm 对决 RISC‑V” 的故事,而是一个平台经济学的故事:当中立的平台提供商开始与它赋能的客户正面竞争时,会发生什么。一、向价值链上游攀登 —— 这在商业上完全合理纵观历史,Arm 一直在稳步向价值链上游走:从 CPU IP,
  • 关键字: 晶心科技  IP  RISC‑V  Arm  

SmartDV展示AI & HPC连接与存储IP解决方案,以解锁下一代算力芯片和节点的“速度密码”

  • 在AI大模型、超算集群和云原生数据中心蓬勃发展的今天,芯片内部和节点中的“数据高速公路”和“存储中枢”正成为制约处理器算力释放和节点整体性能的核心瓶颈。SmartDV作为领先的半导体知识产权(设计IP)与验证IP(VIP)解决方案提供商,正以其全面的高速接口、内存控制器与互连IP产品,为各类AI处理器、加速器和系统级芯片(SoC),高性能计算(HPC) 及数据中心处理器注入“超高速、低延迟、可扩展”的设计基因。3月10日至12日,SmartDV在于德国纽伦堡展览中心举办的2026年嵌入式世界展(Embed
  • 关键字: SmartDV  连接与存储  IP  算力芯片  

Equinix 扩展 AI 数据中心以支持 GPU 工作负载

  • Equinix 正在扩大其数据中心容量,以满足来自人工智能与云基础设施日益增长的需求,特别是高密度 GPU 部署场景。此次扩建反映出计算架构的整体转变 ——AI 推理负载正对供电、散热和网络互联能力提出越来越高的要求。这一动态凸显出基础设施限制正成为 AI 系统设计的关键因素,同时也表明半导体生态系统的价值重心正在转移:不再局限于芯片本身,而是延伸到支撑芯片运行的物理基础设施层面。为 AI 负载扩展基础设施Equinix 正在升级设施以支持更高的功率密度,其数据中心专为大型 GPU 集群(例如基于英伟达架
  • 关键字: Equinix  液冷  GPU  人工智能  基础设施  

“HBM 之父” 预言:HBF崛起推动AI迈向内存中心化,GPU核心地位将重塑

  • 在各大存储巨头竞相押注 HBF(高带宽闪存)等后 HBM 时代技术之际,被公认为 **“HBM 之父”的韩国科学技术院(KAIST)教授金正浩(Joungho Kim)** 抛出重磅判断:当前由英伟达主导的GPU 中心化 AI 架构,终将转向内存中心化架构。随着 AI 从生成式模型向智能体模型演进,内存瓶颈正成为关键制约。金正浩在接受《Aju News》采访时将这一转变称为 **“上下文工程”的兴起 —— 海量文档、视频及多模态数据需被并行处理。他强调,要跟上这一趋势,内存带宽与容量必须提升最高 1000
  • 关键字: HBM  HBF  AI  GPU  
共1778条 1/119 1 2 3 4 5 6 7 8 9 10 » ›|

gpu ip介绍

您好,目前还没有人创建词条gpu ip!
欢迎您创建该词条,阐述对gpu ip的理解,并与今后在此搜索gpu ip的朋友们分享。    创建词条

热门主题

树莓派    linux   
关于我们 - 广告服务 - 企业会员服务 - 网站地图 - 联系我们 - 征稿 - 友情链接 - 手机EEPW
Copyright ©2000-2015 ELECTRONIC ENGINEERING & PRODUCT WORLD. All rights reserved.
《电子产品世界》杂志社 版权所有 北京东晓国际技术信息咨询有限公司
备案 京ICP备12027778号-2 北京市公安局备案:1101082052    京公网安备11010802012473